大数据不歧视你,大数据只预测你
首发于“人神共奋(ID:tongyipaocha)”微信公众号
每周二原创:职场学习类干货
大数据杀熟
1/4
价格歧视
假设公司目前主力销售的一款产品,定价100元,毛利率30%(即成本70元),公司想推出类似的新产品,你觉得下面的哪一种定价行为,会让顾客不爽?
1、推出“豪华版”,定价150元,毛利率提升至40%(即成本90元),以“升级款”的名义向老客户推销;
2、推出“环保版”,定价90元,毛利率仍然是30%(即成本63元),以“老客户回馈”的名义向老客户推销;
3、直接后台区分,推出成本完全一样的新包装,看到老客户,定价110元,看到新客户,定价90元。
毫无疑问,一定是“营销活动3”让人不爽,这就是标准的“大数据杀熟”。
那么,“豪华版”和“环保版”,哪一个更让你不爽呢——这两个活动多少也有点“杀熟”的意图。
大部分人都会选择“环保版”,因为企业只是降低了成本,却冠以“老客户回馈”的名义,这仍然是一种欺骗。
而“豪华版”,虽然提升了毛利率,但高价产品定高毛利,却是消费者比较容易接受的常规做法。此外,虽然公司的营销重点是老客户,但活动的名义是“产品升级”,也不算是一种欺骗。
从这些来看,“大数据杀熟”有三点令人不爽,而且“不爽”的程度依次升级:
1、滥用用户隐私
2、损害了客户的利益
3、不公平,欺骗性定价
虽然媒体对“个人隐私”讨论的比较多,但大多数人感到愤怒的原因主要还是“被欺骗”和“利益受损”——用“个人隐私”换来的却是更贵的价格。
假想一下,如果平台的模式是自动识别老客户,专门给优惠(因为不想让得不到优惠的新客户不满),那么,客户会接受用“隐私权”换更便宜的价格吗?以我过去做电商的经验,大部分人会的,没有便宜十块钱换不来的客户隐私,如果不是,那就再便宜十块。
“大数据杀熟”本质上是一种价格歧视,并不是所有的“价格歧视”都会招致用户反感,以下价格歧视就被消费者普遍接受:
会员价与非会员价
新客户优惠券
航空公司按预定时间不同,给予的折扣不同
我国的工商电价贵,居民用电便宜
量贩超市,买的越多越便宜
还有一些定价方法,也被普遍接受,但同时有一些争议:
同样能力的员工不同薪酬,且不允许私自泄露工资
一瓶水在超市卖2元,在豪华酒店卖10元
双11用复杂的优惠方法,让不同客户得到不同优惠
那么,相比下面典型的“大数据杀熟”,上面两类定价方法有什么区别呢,为什么有些可接受,有些不可接受?
高峰期打车软件优先给“同时使用两款打车软件”的客户派单
外卖软件偷偷给会员用户提价
常订高价机票的乘客,显示的票价也高
2/4
效率至上
定价是一件商品能否获得商业上成功的核心因素之一,定价太高,销售不及预期,失败!定价太低,利润不及预期,同样失败!
定价成功的核心是找到消费者的心理预期,然后比这个“心理预期”低一点点。比如我开发了一款多功能扫地机,消费者在比较了多款商品后的心理预期是X元,那我的定价如果刚好是“X-1”元,那就可以获得最大的利润空间。
但问题在于,不同的消费者对同一款商品的“心理预期”是不同的,商品需要找到占比最大同时预期又很合理的那一群客户,这在新产品定价之前,只能靠经验判断——或者采用“价格歧视”策略。
价格歧视就是把相同的产品以不同的价格分别卖给不同的客户,其依据是客户的偏好、需求的迫切程度以及价格的接受能力。
假设商家认为,对品牌有偏好且价格承受能力强的人,喜欢到旗舰店购买,价格承受能力弱的人,喜欢找有折扣的淘宝C店,那么,商家就可以默许经销商通过淘宝C店给予更多优惠,但不给予正品保证,这实际上就构成了一个“价格歧视”。
为什么这种价格歧视不会引起用户的反感呢?关键在于,品牌不给C店正品保证,增加了消费者的购买风险,C店给消费者的优惠实际上是“风险补偿”,背后是一种公平的原则。
品牌明知C店卖的是正品,故意不给正品保证,也是基于“公平”的原则——让那些对品牌信任并付出更高价格的忠诚级消费者有“公平”对待的感受。
价格歧视本质上是一种“效率至上”导向下的定价策略:对于商家而言,可以利润最大化;对于消费者而言,不同价格满足了不同偏好的消费者;对于整个社会而言,商品的整体价格并没有提升。
只要是“效率”出现的地方,就会遇到“公平”的问题,可接受的“价格歧视”一定是在效率与公平之间,找到最佳平衡点。
机票预定时间越晚,折扣越低,其商业上的原因是,商务客户的付费能力高,但时间不容易确定,所以到最后几天订机票的可能性较大。
但这个价格机制从公平角度同样说得过去:早订票的客户,付出了行程变更的风险,更大的折扣力度就是“风险补偿”——非常公平。
价格歧视不需要实际上的公平,只要名义上公平,你只要能有一个大家能接受的理由就行了。
豪华酒店一瓶普通水卖10元,原因是住豪华酒店的客户付费能力高,但名义上还是“公平”,因为酒店付出了更多的服务——实际上成本根本摊不了这么高。
所以,这里的“公平”并非是利益上的公平,是消费者的个人感受。“大数据杀熟”的问题不在隐私和价格歧视,而在公平感的丧失。
既然是个人感受,差异就会很大,甚至在不同的社会环境下,对“公平”的看法不同,同样的价格歧视被接受的程度不同,甚至可能相反。
以电价为例:
国外的电价,企业用户电价低,居民用户电价高;
国内的电价,企业用户电价高,居民用户电价低。
其原因在于,国外的电力企业以私营为主,且存在竞争关系,企业用户电价量大,可以给一定的优惠;而国内电力企业都是国有企业,承担一定的社会责任,保证居民平价用电,而企业用户可以把高电价转嫁到商品价格上,所以可以定高价。
这就是不同性质的企业,对“公平”的看法不同,造成了完全相反的“价格歧视方向”。
那么,公平感为什么对于定价如此之重要,甚至重要性超过了“实际利益”呢?
关键在于品牌。
3/4
社会公正与品牌价值观
品牌的诸多定义中,有一条是承诺,品牌代表企业对用户的承诺。
可口可乐:全球如一的美国味道
中国李宁:中国人也可以有顶级潮牌
元气森林:提供健康的好味道
爱马仕:有品味的低调奢华
承诺的意思代表对所有客户有效,“公平的对待所有客户”就是承诺的前提,如果打破了这个前提,那么意味着品牌的所有承诺都不再可信。
实际的品牌管理中,企业更注重品牌形象的区分度,但过度强调品牌个性的时候,去想各种花哨的品牌主张、玩很多创意,反而违背了一些最基本的价值观。
公平感是一个非常复杂,甚至有一点“非理性”的感受,企业很可能在不经意间就触动了消费者敏感的神经。
在高铁尚未在祖国大地上遍地开花之前,每年到了春运,买不到火车票一直是网络讨论的焦点,偏市场派的经济学家每年都主张“提价”解决火车票供应紧张的问题,但每次都被骂得狗血淋头。
经济学家不服气,提价怎么不合理了?航空机票都是定一个特别高的价格,平时狠狠地打折,节假日按原价,大家皆大欢喜。
高价难吃的飞机餐价格含在机票中强制消费,就变成“优质服务”的一部分,同样高价味道好很多的火车餐。不强制消费,只是叫卖几声,反而不断惹争议。
低价提价是不公平,高价打折就是公平,结果就是后来的高铁定价,也是先定一个高价,再打折。
最终,在长期的营销实践中,大品牌们已经熟练地掌握了一系列营销套路——既能达到歧视性定价的目的,又不让顾客感到被冒犯。可惜到了大数据时代,急功近利的网络平台,又要把当年传统品牌踩过的坑,重新踩一遍。
传统品牌营销中“给新客户专享优惠券”,跟网络平台“给老客户显示更高的价格”,实际都是拉新的营销手段,但前者不破坏公平感,后者就让人觉得“不公平”,最后闹到要出台专门的法律禁止“大数据杀熟”。
然而,价格歧视可以直接禁止,但基于大数据的隐蔽的价格歧视却复杂得多。
4/4
机器学坏了?
美国康奈尔大学劳资关系学院的一项调查中,分析了职场人员的“随和度”特征后发现:性格随和的员工的薪酬比“带刺儿”的员工低18%。
这也是一种“杀熟”啊。
不太远的未来,HR中的薪酬专员将由大数据担任,它不但可以公平地评估每位员工的业绩,预测未来的发展空间,更重要的是,它还会预测你的行为,判断你可以接受的最低工资要求,以实现个性化的动态定价。
大数据时代,价格歧视进化为动态定价,通过机器学习,定价每分钟都在变化,以最大程度的获取利润。
1999年,可口可乐计划推出一款能够根据天气情况改变价格的自动售货机,经媒体披露后,被骂得“胎死腹中”;可到了2013年,亚马逊就通过动态定价,提高了25%的利润率,2014年元旦,Uber的动态定价系统失灵了26分钟,业务量立刻下跌了75%。
大数据不歧视你,大数据只是预测你的行为。可以立法禁止“大数据杀熟”,但比价格歧视更复杂的是更隐蔽的歧视。
很多人应该记得前几年出过的一件“大数据歧视”事件,美联航一班飞机超售票,在没有乘客自愿改签的情况下,美联航由电脑随机选出四名乘客强制改签,并将一名乘客强行拖下飞机。
评论认为其中有种族歧视,理由很明显,四个人中有三个亚裔,但机组人员很委屈,这是电脑“随机”选出来的,在场人员并没有干预结果。
听了工作人员的辩解,程序员笑了,人类才有“随机”行为,只要是电脑产生的结果,一定是按某种规律取参数计算出来的。只不过,有些参数是人为设定的,有些参数是机器自主学习的,后者就是人工智能。“随机”出三个亚裔,唯一的解释就是,电脑从历史改签数据学会了人类的某些行为模式。
如果让人类解读这个数据,那就是“亚裔服从性好,不会惹麻烦”——也是一种“杀熟”。
人会产生偏见,就会掩饰偏见,就会权衡一下,会不会给自己带来麻烦。但电脑没有偏见,自然也就不需要掩饰偏见,它只会把偏见赤裸裸地告诉我们。
不是坏人变成机器,而是机器“学坏了”。
同样在淘宝上输入“包包”,系统给你展示的是男包,给你女友展示的是女包,你会觉得系统推荐很准。但同样在淘宝上输入“女包”,系统给你展示的都是几十块的地摊货,给别人展示的都是几千块的名牌包,你就开始不爽了。
但是,大数据不歧视你,大数据只是预测你的行为。
“大数据杀熟”如果是一个设定的参数,法律可以强行禁止,但未来,依赖机器学习的决策场景越来越多,暗藏在历史数据中的人类的种种丑陋的行为,就会愈加赤裸裸地呈现在我们面前。
人类的最大缺点是虚伪,人类的最大优点也是虚伪,心里全是生意。嘴上却必须讲主义,虚伪至少可以让一切恶行隐藏在冠冕堂皇的理由之下。
所以,机器学习是不是先要让大数据学会人类的价值观呢?
与“社会观察”相关的文章
人神
共奋
颠覆你对职场的看法
长按识别二维码关注我们